STA 563 : Lecture 9 – Rate Distortion Information Theory
نویسنده
چکیده
9.1 Motivation: Quantization of Random Variables . . . . . . . . . . . . . . . . . . . . . 1 9.2 Lossy Source Coding Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 9.3 The Rate Distortion Coding Theorem . . . . . . . . . . . . . . . . . . . . . . . . . . 4 9.3.1 Example: Binary Source . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 9.3.2 Example: Gaussian Source . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 9.3.3 Properties of the Rate Distortion Functions . . . . . . . . . . . . . . . . . . . 7 9.4 Converse to the Rate Distortion Coding Theorem . . . . . . . . . . . . . . . . . . . . 8 9.5 From Capacity to Rate Distortion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
منابع مشابه
ECE 587 / STA 563 : Lecture 2 – Measures of Information
2.1 Quantifying Information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2.2 Entropy and Mutual Information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2.2.1 Entropy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2.2.2 Mutual Information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2.2.3 Example: Test...
متن کاملLecture 17 : March 24 Lecturer
In the previous lecture we defined Sufficient Statistics, which capture all information in the data relevant to estimating a desired parameter (hopefully, in a concise way). Motivated by the fact that useful sufficient statistics (i.e., those with dimension independent of sample size) only exist for certain (i.e., exponential family) distributions, we defined two more general notions, the Rate ...
متن کاملذخیره در منابع من
با ذخیره ی این منبع در منابع من، دسترسی به آن را برای استفاده های بعدی آسان تر کنید
عنوان ژورنال:
دوره شماره
صفحات -
تاریخ انتشار 2017